Модели

  • В каталоге собраны наиболее популярные, свободно распространяемые нейросетевые модели от разработчиков со всего мира, включая большие языковые, мультимодальные и диффузионные модели. Попробуйте интересующие модели в одном месте.
  • Для знакомства с моделью и ее тестирования, вы можете воспользоваться публичным эндпоинтом. А для работы на постоянной основе, файнтюнинга или специфичных весов, лучше арендовать виртуальный или выделенный сервер с GPU.

Qwen3.5-397B-A17B

Гибридная модель от команды Qwen, объединяющая передовые мультимодальные возможности с исключительной эффективностью благодаря архитектуре Gated DeltaNet и разреженных экспертов (MoE). При общем объеме в 397 миллиардов параметров модель активирует лишь 17 миллиардов за токен, обеспечивая производительность на широком спектре задач — от сложных математических рассуждений до мультимодального понимания и создания агентов.

размышляющая
мультимодальная
русскоязычная
16.02.2026

FireRed-Image-Edit-1.0

Модель для задачи редактирования изображений, обеспечивающая высокую точность, качество и консистентность в различных сценариях. 

14.02.2026

MiniMax-M2.5

Флагманская модель серии, достигшая передового уровня производительности (SOTA) в программировании, агентном использовании инструментов и реальных практических «офисных» кейсах. Благодаря масштабному обучению с подкреплением (RL) и инновационному фреймворку Forge, M2.5 не только решает сложнейшие задачи, но и делает это с высокой точностью и скоростью.

размышляющая
русскоязычная
12.02.2026

GLM-5

Фундаментальная open-source модель, разработанная для решения сложных задач и продолжительных агентных сценариев. Архитектура MoE c 754B параметров (40B активных), разреженное вниманием (DSA), инновационная RL-инфраструктура slime и фокус на практическую полезность позволяют GLM-5 вывести взаимодействие с ИИ далеко за рамки простого чата, превращая его в полноценного ассистента исполнителя

размышляющая
русскоязычная
11.02.2026

Qwen3-Coder-Next

Эффективная MoE-модель с 80B параметров (активно 3B), специально созданная для агентов, ориентированных на программирование. Модель отличается высокой эффективностью инференса, длинным контекстом (262K токенов) и лучшей в своём классе работой с различными форматами вызовов инструментов, что делает её идеальным выбором для развертывания интеллектуальных ассистентов разработчика.

русскоязычная
для кодинга
можно попробовать
30.01.2026

HunyuanImage-3.0-Instruct

Модель для генерации и редактирования изображений на основе текста и референсных изображений. Она разработана Tencent и представляет собой крупнейшую открытую модель для генерации изображений с использованием архитектуры Mixture of Experts (MoE). Модель объединяет текст и изображения в едином автокорректируемом фреймворке, что обеспечивает высокую контекстную целостность и детализацию. Всего модель содержит 80 миллиардов параметров (активируется 13 млрд на токен) и использует 64 эксперта (experts) для повышения производительности.

28.01.2026

DeepSeek-OCR-2

Инновационная мультимодальная модель для оптического распознавания символов (OCR), которая имитирует человеческое визуальное восприятие. Вместо стандартного построчного сканирования изображения, её новый энкодер DeepEncoder V2 использует компактную языковую модель для динамического переупорядочивания визуальных токенов, следуя семантической логике документа. Это позволяет значительно улучшить понимание сложных макетов, таблиц и формул, сохранив при этом высокую эффективность предыдущей версии.

мультимодальная
русскоязычная
27.01.2026

lingbot-world-base-cam

Модель предназначена для генерации видео на основе изображений (Image-to-Video). Она относится к категории «World Model» и лицензирована под Apache-2.0, что обеспечивает открытый доступ к коду и моделям.

26.01.2026

Z-Image

Это базовая модель семейства ⚡️-Image, разработанная для высокого качества генерации изображений, широкого охвата стилей и точного соответствия текстовым запросам. Она предназначена для профессионального использования, творческих задач и исследований, в отличие от ускоренной версии Z-Image-Turbo.

23.01.2026

GLM-4.7-Flash

30-миллиардная MoE-модель с активацией всего ~3.6B параметров на токен, обеспечивающая рекордную производительность в своем классе при минимальных требованиях к ресурсам (~24 ГБ VRAM). Модель лидирует в агентных задачах и программировании, поддерживает 200K контекст и оптимизирована для лёгкого локального развёртывания.

размышляющая
русскоязычная
19.01.2026

FLUX.2-klein-4B

Модель генерации изображения по текстовому описанию и многореференсного редактирования изображений в одном компактном архитектурном решении, разработанное для вывода в реальном времени и минимальных требований к оборудованию. Включает 4 миллиарда параметров и работает на потребительских GPU (например, NVIDIA RTX 3090/4070) с 13 ГБ VRAM, обеспечивая вывод изображений менее чем за секунду.

14.01.2026

FLUX.2-klein-9B

Модель для генерации и редактирования изображений, объединяющая в одной архитектуре обе задачи (генерацию изображения по текстовому описанию и многореференсное редактирование изображений). Это 9-миллиардный rectified flow transformer, совмещенный с 8-миллиардным текстовым эмбеддером Qwen3. Модель обеспечивает высокое качество при скорости вывода менее чем за полсекунды.

14.01.2026

GLM-Image

Модель генерации изображений с гибридной архитектурой, объединяющей Autoregressive generator и Diffusion Decoder. Оно преуспевает в сценариях с информационно наполненным текстом и сложной семантикой, обеспечивая высокую детализацию и точность отображения информации.

08.01.2026

Kimi-K2.5

Открытая модель, построенная на архитектуре Mixture-of-Experts с 1T параметров, из которых на токен активируются 32B. В ней разработчики реализовали парадигму «visual agentic intelligence» — сочетание визуального восприятия, рассуждений и автономных агентов. Модель мультимодальна, представлена в нативной INT4‑квантизации и включает уникальный механизм Agent Swarm обеспечивающий оркестрацию и параллельную работу до 100 субагентов, что позволяет повышать качество и снижать время выполнения сложных задач в среднем в 4.5 раза.

размышляющая
мультимодальная
русскоязычная
01.01.2026

Qwen-Image-2512

Это обновленная версия текстово-визуальной модели Qwen-Image, выпущенная в декабре. Она улучшена по сравнению с базовой моделью, выпущенной в августе, и предназначена для генерации изображений по текстовым запросам.

30.12.2025

GLM-4.7

Продвинутая MoE-модель с агентскими возможностями, созданная как интеллектуальный партнёр для программирования. Её уникальность — в системе многоуровневого «мышления», которая обеспечивает беспрецедентную стабильность и контроль при выполнении сложных задач. Идеальный выбор для разработки, автоматизации и создания визуального контента программными средствами.

размышляющая
русскоязычная
22.12.2025

MiniMax-M2.1

Эволюционное обновление модели M2, значительно усилившее способности модели к программированию. Благодаря масштабному обучению с подкреплением, механизму полного внимания и новому подходу к оценке эффективности на реальных задачах (VIBE Bench) M2.1 демонстрирует глубокое понимание кода и SOTA для ИИ-агентов, решающих реальные инженерные задачи.

размышляющая
русскоязычная
20.12.2025

Qwen-Image-Edit-2511

Это улучшенная версия модели Qwen-Image-Edit-2509, разработанная для задач редактирования изображений.

17.12.2025

NVIDIA-Nemotron-3-Nano-30B-A3B

Модель от компании NVIDIA с 31,6B параметров (3,5B активных) специально оптимизированная для высокопроизводительных агентских систем. Модель использует гибридную архитектуру Mamba-Transformer MoE, обеспечивающую одновременно экономию памяти, высокую пропускную способность, рассуждения и точность ответов и на контекстах до 1М токенов.

размышляющая
русскоязычная
15.12.2025

GLM-4.6V

Мультимодальная модель с 106B параметров, архитектурой MoE и контекстом 128K токенов. Её ключевая особенность заключается в нативной поддержке вызова инструментов, позволяющей напрямую работать с изображениями как входными и выходными данными, что делает её идеальной платформой для создания сложных AI-агентов для анализа документов, визуального поиска и автоматизации процесса фронт-энд разработки.

размышляющая
мультимодальная
русскоязычная
07.12.2025